catégorie : Théorie de l'informationL'
entropie de Rényi, due à
Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'
Information contenue dans la probabilité de collision d'une
Variable aléatoire.
Définition formelle
L'entropie de Rényi d'une
Variable aléatoire discrète
x, avec états possibles 1..
n comme :
R (x) = | 1 ––––– 1- α | log 2 {E } = | 1 ––––– 1- α | log 2 | ( | n Σ i = 1 | p (i) α) |
où E dénote l'espérance mathématique, α > 0 et α ≠ 1.
Voir aussi
Catégorie : Théorie de l'information
- (en) A. Rényi, On measures of entropy and information, in Proc. 4th Berkeley Symposium on Mathematical Statistics and Probability. vol. 1, 1961, p. 547-561.